Skip to main content

Ollama 用户使用示例

Ollama 是一个本地运行大模型的平台,支持多种模型(如 Llama、Mistral、Deepseek 等),用于自然语言生成、聊天和对话等任务。


🚀 常用命令

命令说明
ollama pull <model>下载模型
ollama run <model>运行模型
ollama list查看本地可用模型
ollama chat启动交互式对话
ollama help查看帮助

📦 下载并运行模型

# 下载 llama2 模型
ollama pull llama2

# 单次运行
ollama run llama2

# 交互式对话
ollama chat

🧩 列出本地模型

ollama list

示例输出:

NAME        SIZE
llama2 4.2G
mistral 4.5G
deepseek 13G

🗂️ 模型存储位置

模型默认存储在 ~/.ollama(可用环境变量 OLLAMA_MODELS_PATH 自定义)。


📝 配置示例

default_model: llama2
use_gpu: true

📚 参考链接